Польза и риски доверенного ИИ

Искусственный интеллект стремительно развивается и ложится в основу технологических инноваций.

Однако он может использоваться и злоумышленниками, давая им значительное преимущество в скорости и окупаемости атак. Чтобы он был не менее мощным инструментом и в руках защитников, современные специалисты стремятся к концепции доверенного ИИ — принципов законного, этичного и устойчивого применения технологии.

Тренды развития искусственного интеллекта стали одной из ключевых тем конференции «Цифровая индустрия промышленной России 2024». Вопросы его применения в информационной безопасности обсуждались на сессии ГК «Солар» «ИИ — новая технология на страже киберустойчивости или оружие в руках преступников». Особенностью сессии «ИИ — новая технология на страже киберустойчивости или оружие в руках преступников», стало то, что она была полностью подготовлена искусственным интеллектом. Генеративная модель определила канву дискуссии, подобрала вопросы для спикеров и представила свою точку зрения на часть из них. Искусственный интеллект выступал также в роли со-модератора.

Отвечая на вопрос «ИИ — реальная технология или „хайп‟?», Александр Шойтов, заместитель министра цифрового развития, связи и массовых коммуникаций Российской Федерации, провел аналогию с космосом. На заре его освоения людям казалось, что через 10–15 лет состоится полет на другие планеты, а потом и к звездам. Сегодня же мы лучше понимаем границы своих возможностей, планируем проекты на Луне, на Марсе. Так и с ИИ — это, безусловная, реальная технология, но мы еще не изучили, насколько далеко простираются ее возможности. Участники дискуссии сошлись во мнении, что хотя вокруг ИИ действительно есть некоторый ажиотаж, родился он не на пустом месте, а как естественный процесс развития науки и техники, на технологии, которая становится драйвером и акселератором индустрии.

Кроме того, ИИ и большие данные являются движущей силой экономики: в 2024 году их вклад в рост мировой экономики составит не менее одного триллиона долларов США. Все больше компаний и организаций используют ИИ в своих бизнес-процессах, в том числе в ИБ-сфере. Однако отношение к нейросетям до сих пор неоднозначное, а те возможности, которые эти технологии могут предоставить злоумышленникам, вызывают большие опасения у экспертов.

Сергей Гордейчик, генеральный директор СайберОК, отметил, что киберпреступники могут использовать те же преимущества ИИ, при этом без необходимости соблюдать этический кодекс, заботиться о сохранности данных, наконец, согласовывать и планировать бюджеты. Один из примеров — распространение дипфейков для дезинформации и мошенничества. Если говорить про применение этой технологии в защите, то она чаще практикуется «белыми хакерами», которые могут быть чуть гибче и пользоваться практически теми же приемами, что и злоумышленники.

Злоумышленники активно используют ИИ для автоматизации атак, рассказал Дмитрий Харитонов, первый заместитель генерального директора Холдинга Т1: «Это позволяет снизить стоимость и повысить скорость, например, разработки вредоносного ПО, фишинга, создания дипфейков и поддельных профилей, а также документов. Другой популярный способ применения технологии — поиск уязвимостей в организации или методов воздействия на человека. ИИ способен проанализировать всю доступную информацию о жертве, чтобы кастомизировать атаку, обмануть фильтры спама и антивирус, воздействовать на персональные триггеры человека. Если же попытка не удается, ИИ учится на своих ошибках и ищет новые способы».

Игорь Ляпунов, генеральный директор ГК «Солар», согласен, что ИИ скорее придет на сторону не защищающих, а атакующих: «Их задачи легко алгоритмизируются, и это даст преимущество по скорости. Если в 2023 году целевая атака от этапа разведки до инцидента занимала 2–3 месяца, то сейчас, благодаря ИИ, она может разворачиваться за несколько дней. Однако в технологиях оборонительной кибербезопасности тоже есть место искусственному интеллекту: с его помощью удобно детектировать отклонения от нормы в поведении пользователей или функционировании систем как индикаторы атаки. Мы в «Солар» тестируем и уже внедряем модели ИИ, например, в Solar Dozor для защиты от внутренних ошибок и нарушителей. В центре исследования киберугроз Solar 4RAYS мы используем нейросетевые модели для киберразведки, чтобы обнаруживать инфраструктуру злоумышленников даже тогда, когда она ещё не была использована в реальных атаках. Более 200 крупнейших компаний сегодня используют генеративный интеллект в составе наших программных продуктов и сервисов для защиты своих данных и IT-инфраструктуры».

Искусственный интеллект отметил, что «ИИ — двойственный инструмент, который зависит от того, как его используют. Правильно настроенный, он может значительно укрепить киберустойчивость, предотвращая и устраняя угрозы быстрее, чем человек, но при неправомерном использовании он может стать мощным оружием в руках преступников».

Путь инноваций в консервативных сферах, таких, как промышленность, представляет отдельный интерес. «Если задать вопрос о технологиях будущего, большинство называет ИИ и роботизацию, — поделился Михаил Аронсон, заместитель генерального директора ГК «Цифра». — Однако мы провели два исследования: по цифровизации горно-металлургической отрасли и машиностроительной отрасли, и оба показали, что предприятия только прощупывают эти возможности ИИ. В основном используются цифровые советчики на базе ИИ, которые дают специалисту рекомендации. Например, советчик по управлению горной техникой предупреждает об опасности, помогает оптимизировать расход топлива и выбрать оптимальный маршрут.

При этом до выхода на новый уровень, например, на широкое использование роботизированного транспорта, еще, как минимум, не хватает законодательства, которое регулировало бы совместную работу робота и человека».

Сергей Гордейчик поддержал мысль, что чем больше функций человек передает ИИ, тем больше аспектов безопасности нужно предусмотреть. Например, киберзащиту непосредственно самой технологии: «Один из проектов «СайберОК» — контроль поверхности атак интернета, и мы слишком часто видим уязвимые системы, связанные с ИИ, в частности, системы разработки и инжиниринга, взлом которых может привести к утечке или искажению обучающих данных. Ситуация осложняется тем, что к этой технологии часто относятся как к игрушке, даже используя на реальных больших данных и при этом не оценивая защищенность ИИ».

Киберустойчивость решений — один из ключевых аспектов доверенного искусственного интеллекта, одной из ведущих концепций, принятых в этой сфере в мире и в России. Она подразумевает законное, этичное и надежное применение ИИ. «В этой концепции я бы выделил направление по маркировке цифрового контента, — прокомментировал Максим Кузнецов, директор проектного офиса Института AIRI. — То есть созданию так называемых вотермарок. Это способ защитить сами разработанные ИИ модели от их несанкционированного использования. Тот же метод поможет бороться с дипфейками, незаметно маркируя авторский контент. Это особенно важно сегодня, когда ИИ развивается очень быстрыми темпами, и мы находимся на пути к AGI — сильному искусственному интеллекту, не уступающему нашим способностям во всех сферах деятельности».

Позитивный взгляд на перспективы использования искусственного интеллекта в информационной безопасности предложил Дмитрий Харитонов. «Технология уже зарекомендовала себя в системах, где необходимо аккумулировать большое количество разрозненной информации, — отметил эксперт. — Мы уже давно применяем искусственный интеллект в сфере информационной безопасности, например, для противодействия мошенничеству в финансовой сфере. ИИ может детектировать нетипичные поведенческие сценарии и заблокировать транзакцию с признаками фрода. Наиболее инновационное наше решение — это «Криптоанклав», программно-аппаратный комплекс, который позволяет загружать данные из разных источников и разрабатывать на их основе модельные сервисы без фактического доступа к самой информации, то есть, это защищенное хранилище с зашифрованными данными».

По итогам обсуждения удалось выделить основные направления при работе с ИИ инструментами, которые требуют пристального внимания:

  • высокие требования к вычислительным мощностям и аппаратным ресурсам, необходимом для стабильной работы ИИ решений при растущих объемах данных;
  • повышение прозрачности и непредвзятости в развитии ИИ: развитие регуляторных мер, систем контроля, мер кибербезопасности для защиты обучающих данных;
  • готовность к киберугрозам, связанным с использованием ИИ в преступных целях, в том числе проактивные меры против уязвимостей и утечек данных, которые позволяют злоумышленникам накапливать чувствительные данные и в дальнейшем использовать в атаках;
  • развитие возможностей ИИ на благо человека, в том числе как инструмент ИБ, а также в различных отраслях для большей эффективности и безопасности труда.

Объединить потенциал искусственного интеллекта и человеческий потенциал — как показал опыт этой сессии – возможно. Однако важно признать и рассмотреть с практических позиций потенциальные риски, а затем последовательно работать над тем, чтобы их нивелировать.

Фото: пресс-служба ГК «Солар»

Похожие записи